强化学习旨在通过与动态未知的环境的互动来学习最佳政策。许多方法依赖于价值函数的近似来得出近乎最佳的策略。在部分可观察到的环境中,这些功能取决于观测和过去的动作的完整顺序,称为历史。在这项工作中,我们从经验上表明,经过验证的复发性神经网络在内部近似于这种价值函数,从而在内部过滤了鉴于历史记录的当前状态的后验概率分布,称为信念。更确切地说,我们表明,随着经常性神经网络了解Q功能,其隐藏状态与与最佳控制相关的状态变量的信念越来越相关。这种相关性是通过其共同信息来衡量的。此外,我们表明,代理的预期回报随着其经常性架构在其隐藏状态和信念之间达到高度相互信息的能力而增加。最后,我们表明,隐藏状态与变量的信念之间的相互信息与最佳控制无关,从而通过学习过程降低。总而言之,这项工作表明,在其隐藏状态下,近似可观察到的环境的Q功能的经常性神经网络从历史上复制了足够的统计量,该统计数据与采取最佳动作的信念相关的部分相关。
translated by 谷歌翻译